1
За пределами даты знаний: почему моделям ЛЯМ нужны внешние данные
AI011Lesson 6
00:00

За пределами даты знаний

Большие языковые модели мощные, но страдают от фундаментального ограничения: дата ограничения знаний. Чтобы создавать надежные системы ИИ, необходимо преодолеть разрыв между статичными обучающими данными и динамической информацией из реального мира.

1. Проблема ограничения знаний (Что)

Модели ЛЯМ обучены на огромных, но статичных наборах данных с фиксированной датой завершения (например, сентябрь 2021 года для GPT-4). В результате модели не могут отвечать на вопросы о недавних событиях, обновлениях программного обеспечения или конфиденциальной информации, созданной после их обучения.

2. Галлюцинации против реальности (Почему)

Когда спрашивают о неизвестных или пост-ограниченных данных, модели часто галлюцинируют—придумывают правдоподобно звучащие, но полностью ложные факты, чтобы удовлетворить запрос. Решение — привязка: предоставление актуальной, проверяемой информации из внешней базы знаний перед тем, как модель сгенерирует ответ.

3. RAG против дообучения (Как)

  • Дообучение: Обновление внутренних весов модели вычислительно затратно, медленно и приводит к статичным знаниям, которые быстро устаревают снова.
  • RAG (Генерация с поддержкой поиска): Очень выгодный по стоимости. Он извлекает соответствующую информацию в режиме реального времени и вставляет её в запрос, обеспечивая актуальность данных и позволяя легко обновлять базу знаний без повторного обучения.
Пробел в доступе к частным данным
Модели ЛЯМ не имеют доступа к внутренним руководствам компании, финансовым отчетам или конфиденциальным документам, если они не были явно интегрированы через путь поиска.
grounding_check.py
TERMINALbash — 80x24
> Ready. Click "Run" to execute.
>
Question 1
Why is Retrieval Augmented Generation (RAG) preferred over fine-tuning for updating an LLM's knowledge of daily news?
Fine-tuning prevents hallucinations entirely.
RAG is more cost-effective and provides up-to-date, verifiable context.
RAG permanently alters the model's internal weights.
Fine-tuning is faster to execute on a daily basis.
Question 2
What term describes an LLM's tendency to invent facts when it lacks information?
Grounding
Embedding
Hallucination
Tokenization
Challenge: Building a Support Bot
Apply RAG concepts to a real-world scenario.
You are building a support bot for a new product released today. The LLM you are using was trained two years ago.
Product Manual
Task 1
Identify the first step in the RAG pipeline to get the product manual into the system so the LLM can search it.
Solution:
Preprocessing (Cleaning and chunking the manual text into smaller, searchable segments before embedding).
Task 2
Define a "System Message" that forces the LLM to only use the provided documents and prevents hallucination.
Solution:
"Answer only using the provided context. If the answer is not in the context, state that you do not know."